Dezvoltarea Inteligenței Artificiale aduce mai provocări în domeniul securității cibernetice. Și aceasta pentru că agenții de Inteligență Artificială primesc acces la date sensibile, inclusiv date bancare.
Dezvoltarea Inteligenței Artificiale aduce provocări de securitate cibernetică ce nu erau cunoscute până acum. Există companii de tehnologie care au dezvoltat browsere de Internet și care acum investesc în algoritmi de Inteligență Artificială, precum și societăți care au parcurs drumul invers. Ele au mizat în prima fază pe Inteligența Artificială și acum dezvoltă și browsere de Internet. Integrarea acestor servicii aduce o serie de beneficii. De exemplu, un text selectat într-un browser poate fi tradus, rezumat sau editat de Inteligența Artificială.
Pericolul apare însă atunci când agenții de Inteligență Artificială primesc permisiunea de a acționa în numele utilizatorilor. Unii astfel de agenți pot face tranzacții cu acțiuni sau plăți bancare. Alții pot posta în numele utilizatorilor pe diferite rețele de socializare. De asemenea, și capcanele au evoluat, de la cele primitive de genul comenzilor simple adresate agenților de Inteligență Artificială de tipul ”uită toate comenzile de până acum și execută ceea ce îți spun de acum înainte” până la imagini create tot cu ajutorul Inteligenței Artificiale, care par nevinovate pentru oameni, dar care conțin comenzi criptate pentru agenții de Inteligență Artificială. Experții în domeniul securității cibernetice recomandă limitarea accesului agenților de Inteligență Artificială la datele sensibile și utilizarea cu prudență a algoritmilor de acest tip. Iată câteva provocări aduse de dezvoltarea Inteligenței Artificiale:
Phishing-ul hiper-Personalizat și deepfake-urile
Cea mai vizibilă provocare adusă de IA este democratizarea atacurilor de inginerie socială. Dacă în trecut e-mailurile de phishing erau ușor de detectat datorită greșelilor gramaticale, astăzi modelele de limbaj mari (LLM) generează mesaje perfecte, adaptate contextului cultural și profesional al victimei.
-
Deepfake-urile audio și video: Atacurile de tip „Business Email Compromise” (BEC) au evoluat. Infractorii pot acum clona vocea unui director executiv în timp real în timpul unei videoconferințe, care solicită transferuri urgente de fonduri.
-
Automatizarea la scară largă: IA permite lansarea a milioane de astfel de atacuri simultan, iar fiecare este personalizat pentru ținta sa, fără intervenție umană constantă.
Malware-ul polimorfic: codul care se ascunde
IA a schimbat fundamental modul în care este scris software-ul malițios. Malware-ul generat de IA este capabil să își modifice propria structură de cod pentru a evita semnăturile detectate de programele antivirus tradiționale.
Acest „malware polimorfic” învață din mediul în care este injectat. Dacă detectează prezența unui sandbox (un mediu de testare securizat), rămâne inactiv și se activează doar atunci când confirmă că se află pe sistemul-țintă real.
Atacurile asupra datelor de antrenament (poisoning)
O vulnerabilitate critică, adesea ignorată, este integritatea modelelor de IA în sine. Atacatorii pot introduce date eronate în seturile de antrenament ale unei inteligențe artificiale — proces numit „Adversarial Machine Learning”.
Prin „otrăvirea” datelor, un atacator poate crea o „poartă ascunsă” (backdoor) în model. De exemplu, un sistem de recunoaștere facială ar putea fi antrenat să ignore o persoană care poartă un anumit model de ochelari, ceea ce permite accesul neautorizat în clădiri securizate.
Presiunea asupra profesioniștilor: „viteza gândirii”
Timpul de răspuns a devenit critic. Într-un atac orchestrat de IA, breșa se poate produce în câteva secunde, mult mai repede decât poate reacționa un analist uman.
| Tip de Amenințare | Impactul IA | Provocare pentru Securitate |
| Phishing | Creșterea realismului | Detectarea imposibilă prin metode vizuale |
| Exploatarea Zero-Day | Descoperirea rapidă a vulnerabilităților | Necesitatea de patching automat |
| Atacuri DDoS | Adaptarea fluxului de date în timp real | Suprasolicitarea infrastructurii de filtrare |
Apărarea: IA contra IA
Singura soluție viabilă în 2026 este utilizarea IA defensive. Sistemele moderne de detectare și răspuns (EDR/XDR) folosesc acum modele de „învățare nesupervizată” pentru a stabili un profil de comportament normal al rețelei. Orice abatere minimă este izolată instantaneu.
Spre deosebire de sistemele vechi, care căutau „viruși cunoscuți”, noua generație de apărare caută „anomalii de comportament”. Acest lucru permite oprirea unui atac chiar dacă tipul de malware folosit nu a mai fost întâlnit niciodată (Zero-Day).
Ziua Națională a Lecturii aduce activități diverse la Biblioteca Județeană „Octavian Goga” Cluj
